AI资讯新闻榜单内容搜索-scaling la

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: scaling la
28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

2028年,预计高质量数据将要耗尽,数据Scaling走向尽头。2025年,测试时计算将开始成为主导AI通向通用人工智能(AGI)的新一代Scaling Law。近日,CMU机器学习系博客发表新的技术文章,从元强化学习(meta RL)角度,详细解释了如何优化LLM测试时计算。

来自主题: AI技术研报
5683 点击    2025-01-27 14:03
跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

对 LLM 来说,Pre-training 的时代已经基本结束了。视频模型的 Scaling Law,瓶颈还很早。具身智能:完全具备人类泛化能力的机器人,在我们这代可能无法实现

来自主题: AI资讯
6788 点击    2025-01-24 12:57
原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

下一代 AI 的发展,似乎遇到了难以逾越的瓶颈。去年 12 月,OpenAI 在 ChatGPT 两周年期间连续发布了 12 天,我们期待的新一代大模型 GPT-5 却从头到尾没有踪影。

来自主题: AI资讯
6017 点击    2025-01-22 10:45
深度|Pytorch华人负责人押注复合AI:行业已经从依赖Scaling Law逐渐转向强调模型的推理能力

深度|Pytorch华人负责人押注复合AI:行业已经从依赖Scaling Law逐渐转向强调模型的推理能力

深度|Pytorch华人负责人押注复合AI:行业已经从依赖Scaling Law逐渐转向强调模型的推理能力

我亲眼见证了数据量的爆炸式增长以及行业的巨额投入。当时就很明显,AI是推动这些数据增长背后的关键动力。那是一个非常有趣的时刻——Meta正在完成“移动优先”的过渡,开始迈向“AI 优先”。

来自主题: AI资讯
3699 点击    2025-01-21 13:22
给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

近期关于 scaling law 的讨论甚嚣尘上,很多观点认为 scale law is dead. 然而,我们认为,高质量的 “无监督” 数据才是 scaling law 的关键,尤其是教科书级别的高质量的知识语料。此外,尽管传统的语料快枯竭了,但是互联网上还有海量的视频并没有被利用起来,它们囊括了丰富的多种模态的知识,可以帮助 VLMs 更好好地理解世界。

来自主题: AI技术研报
6153 点击    2025-01-20 19:01
谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

划时代的突破来了!来自NYU、MIT和谷歌的顶尖研究团队联手,为扩散模型开辟了一个全新的方向——测试时计算Scaling Law。其中,谢赛宁高徒为共同一作。

来自主题: AI技术研报
7499 点击    2025-01-18 14:29
120天复制马斯克速度!119块「乐高」搭出算力工厂,破局Scaling Law算力差

120天复制马斯克速度!119块「乐高」搭出算力工厂,破局Scaling Law算力差

120天复制马斯克速度!119块「乐高」搭出算力工厂,破局Scaling Law算力差

马斯克建超算速度,被中国这家公司用120天复刻了。119个集装箱,像搭积木一样拼出一座算力工厂。这不是科幻电影,而是浪潮信息交付的惊艳答卷。一个全新的AI时代,正在这里拉开序幕。

来自主题: AI资讯
6741 点击    2025-01-18 11:17
大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型低精度训练和推理是大模型领域中的重要研究方向,旨在通过降低模型精度来减少计算和存储成本,同时保持模型的性能。因为在大模型研发成本降低上的巨大价值而受到行业广泛关注 。

来自主题: AI技术研报
3883 点击    2025-01-17 11:07
思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

OpenAI 接连发布 o1 和 o3 模型,大模型的高阶推理能力正在迎来爆发式增强。在预训练 Scaling law “撞墙” 的背景下,探寻新的 Scaling law 成为业界关注的热点。高阶推理能力有望开启新的 Scaling law,为大模型的发展注入新的活力。

来自主题: AI技术研报
6621 点击    2025-01-14 14:43